소셜 딜레마 (다큐멘터리)
2020년 9월에 출시한 넷플릭스 다큐멘터리.
개요
애플의 초창기 디자이너 중 한 명인 제프 래스킨은 아이작 아시모프의 로봇 1원칙이 컴퓨터에도 적용되어야 한다고 주장했다.
“컴퓨터는 인간의 작업물에 위해를 가하거나 필요한 동작을 하지 않음으로써 작업물이 위해를 당하도록 두어서는 안 된다”—The Humane Interface, 1장 중
원래는 로봇과 인간 사이의 관계를 다루는 원칙이었지만 래스킨은 컴퓨터와 작업물 사이의 관계를 다루는 원칙으로 수정했다. 당시의 컴퓨터는 상상 속 로봇과 달리 어떤 ‘의도’를 가지고 능동적으로 움직이는 주체가 아니었으니까. 하지만 이제는 컴퓨터가 인간의 일상과 분리 불가능할 정도로 깊게 스며들었고, 상당수의 서비스/소프트웨어가 인간의 사고와 행동에 영향을 주기 위한 목적으로 적극적으로 기획되고 있다. 현대 사회에서는 원래의 원칙대로 ‘컴퓨터에 의한 인간에 대한 위해’를 진지하게 고민해야 할지 모른다.
넷플릭스에서 2020년 9월에 출시한 다큐멘터리 “소셜 딜레마The Social Dilemma”는 페이스북, 인스타그램, 트위터 등 소셜 미디어가 인간과 사회에 미치는 설계된 악영향을 고발한다. UX 디자이너, 데이터 분석가, 퍼포먼스 마케터, 소프트웨어 개발자들에게 많은 생각거리를 던져주는 다큐라고 생각해서, 내용을 짧게 요약하고 관련된 생각들을 정리해봤다.
흥미롭게도, 다큐멘터리에는 제프 래스킨의 아들인 아자 래스킨이 출연한다.
짧은 요약
영화는 주로 구글, 페이스북, 인스타그램, 트위터, 유튜브 등 주요 소셜 미디어 기업에서 일했던 사람들의 인터뷰로 구성된 다큐멘터리와, 배우들이 연기하는 작은 가족 드라마가 교차하는 형식으로 진행된다. 드라마는 다큐가 주장하는 바를 설득력 있게 전달하기 위한 장치인 걸로 보인다.
다큐의 문제 제기를 요약하면 이렇다.
- 소셜 미디어 기업들은 수익을 내기 위해 이용자들의 주의력attention을 쥐어짜서 끊임없이 자사 서비스를 이용하며 광고에 노출되도록 유도하고 이 과정에서 이용자의 개인정보를 비롯한 이용 패턴을 수집하여 활용한다. 이를 반복하고 고도화하는 과정에서 다양한 개인적/사회적 문제를 일으키면서도 책임은 지지 않고 있다.
인상 깊었던 내용을 일부 요약 발췌한다.
“주로 미국 캘리포니아에 사는 20~30대 백인 남성 십여 명으로 구성된 작은 팀이 전 세계 인구에게 영향을 주는 결정을 하면서도 거의 아무런 제재도 받지 않는 그러한 시스템은 역사상 존재한 적이 없었습니다.” (2013년 즈음의 구글 지메일 디자인팀에 대해 묘사하며)
“레이 커즈와일Ray Kurzweil이 말하는 특이점singularity은 컴퓨터가 인간의 강점을 뛰어넘는 시점을 말합니다. 그 시기는 아직 오지 않았으나, 컴퓨터가 인간의 약점을 뛰어넘는 시점은 이미 도래했습니다. 소셜 미디어는 인간 심리의 약점을 집요하게 공략하여 이용자들의 주의력을 착취하고 이로부터 광고 수익을 뽑아내고 있습니다.”
“제품을 이용하며 돈을 내지 않는다면, 그건 바로 당신이 제품이기 때문입니다. 소셜 미디어는 이용자의 데이터를 광고주에게 팔고 있습니다. 이용자가 바로 제품입니다.”
다큐의 주장을 조금 더 부연해보자.
대부분의 SNS는 무료다. 이런 서비스들은 주로 광고 중개로 돈을 버는데, 광고 수익률을 높이기 위해 크게 세 가지를 한다.
- 이용자들의 성향과 행동 패턴을 파악하기: 이용자들이 서비스를 이용하며 어떤 종류의 글을 많이 읽는지, 어떤 글에 좋아요 또는 화나요를 누르는지, 어떤 사람과 자주 교류하는지, 어떤 시간대에 어떤 지역에서 주로 접속하는지 등을 분석하여 행동 패턴을 파악한다. 행동 패턴을 더 잘 파악하기 위해 때론 명시적으로 때론 암묵적으로 다양한 실험을 진행하기도 한다.
- 맞춤 광고를 제공하여 수익을 만들기: 이렇게 파악한 데이터를 기반으로 광고주들이 특정 성향을 가진 이용자들에게 맞춤형 광고를 할 수 있도록 다양한 데이터 분석 도구와 자동화 도구를 개발하여 제공한다. 광고주들은 이 서비스를 이용하여 이용자들에게 맞춤형 광고를 보여주며 그 대가로 소셜 미디어 회사에 광고료를 지불한다. 소셜 미디어의 수익은 대체로 광고주들이 지불하는 광고료에서 나온다.
- 이용자들이 서비스를 더 자주, 더 오래 이용하도록 유도하기: 이용자들에 대한 데이터는 광고에 활용될 뿐 아니라 이용자들이 해당 소셜 미디어를 최대한 자주, 오래 이용하도록 유도하기 위한 장치로도 활용된다. 언제 어떤 푸시 알림을 보낼지, 이들이 접속을 하면 어떤 소식을 어떤 순서로 보여줄지 등 다양한 ‘개인화’를 통해 이를 달성한다. 이용자들이 서비스를 자주, 오래 이용하면 광고에 노출될 기회도 많아지고 이용자들의 성향을 파악할 기회도 많아진다.
이렇게만 서술하면 별 문제가 없게 느껴질 수도 있다. 하지만 위 세 가지 항목 각각이 가지는 부정적 함의들을 살펴보면 느낌이 사뭇 달라진다.
- 이용자들의 성향과 행동 패턴을 파악하기: 예를 들어 페이스북과 구글은 이용자들이 자사 서비스를 이용하지 않는 동안에도 어떤 사이트에서 어떤 행동을 하는지 추적하기 위해 ‘식별 코드’를 심는다. 프라이버시 침해 문제가 꾸준히 제기됨에 따라 최근 몇 년 사이에 관련 규제들이 강화되고(예: 유럽연합의 GDPR, 미국 캘리포니아주의 CCPA), 일부 브라우저의 보안 기능이 강화되는(예: 브레이브, 사파리) 등 다양한 대응이 시작되었으나 아직 역부족이다. 예를 들어 구글은 제3자 쿠키로 이용자를 추적할 수 없게 될 것에 대비하여 다양한 추적 방법에 의해 수집된 데이터 조각을 이어 붙이는 방식의 새로운 추적 시스템을 이미 수년 동안 개발하고 있다.
- 맞춤 광고를 제공하여 수익을 만들기: 여기에서 말하는 광고란 상품 광고 뿐 아니라 특정 국가에서 다른 국가에 정치적 혼란을 야기하기 위한 목적으로 만들어낸 가짜 뉴스, 각종 음모론(기후 위기는 거짓이다, 코로나 바이러스는 사기다 등)을 포함한다. 가짜 뉴스나 음모론은 진실에 비해 더 빠르게 전파되는 특성이 있다는 점에서 더 큰 문제다. 한 기업에서 페이스북이 제공하는 API를 통해 이용자의 데이터를 ‘동의 없이’ 수집하여 이를 미국 대선에 영향을 미치기 위한 목적으로 사용한 사례도 있다. 최근 몇 년 사이에 이러한 문제에 대한 대응, 개인 정보 보호 정책 강화 등의 노력이 시도되고 있으나, 근본적인 해결책이라기보다는 임시방편에 불과한 경우가 많아 보인다. 일례로, 그동안 페이스북에 제기된 비판들을 정리한 위키백과의 문서의 분량을 보라.
- 이용자들이 서비스를 더 자주, 더 오래 이용하도록 유도하기: 이용자들의 ‘주의력’을 더 많이 붙잡아두기 위해 활용하는 수집하는 데이터나 수행하는 실험들에는, 만약 대학에서라면 윤리적인 이유로 인해 허용될 수 없었을 것들도 포함된다. 사람들을 중독시키기 위해 의도적으로 디자인된 장치들은 도박 산업이 오랜 기간 연구하고 적용해온 장치들과 유사하거나 어떤 점에서는 더 강력하지만 이에 대한 규제나 사회적 경각심은 도박 산업에 비해 미미한 수준이다(참고: 디셉티브 패턴의 역사). 게다가 광고를 주요 비즈니스 모델로 하는 거의 모든 서비스들은 이용자들의 주의력을 차지하기 위해 경쟁하기 때문에, 이 구도 자체가 변하지 않는 한 서비스들은 점점 더 집요하고 강력한 장치를 디자인하기 위한 무기 경쟁에서 빠져나올 수 없으며 그 피해는 이용자 개개인과 사회 전반으로 돌아가게 된다.
다큐에서는 우리가 보고 있는 휴대폰의 작은 화면 반대편에는 우리의 주의력을 더 잘 뽑아내기 위해 설계된 각종 알고리즘, 알고리즘을 실행하는 대규모 컴퓨터 서버들, 수많은 분야별 전문가들(UX 디자이너, 데이터 분석가, 퍼포먼스 마케터, 소프트웨어 개발자)이 있다는 점, 따라서 이용자에게 절대적으로 불리한 비대칭적 환경이라는 점을 강조한다.
예를 들어, 다음 이미지는 구글에서 나를 분류하기 위해 붙인 수백 개의 태그 중 일부다(A로 시작하는 태그들). 여러분들도 구글이 제공하는 광고 설정 사이트에 접속해보시면 본인을 구글이 어떻게 인식하고 있는지 확인해볼 수 있다. 참고로 여러분이 구글의 광고 타게팅에 동의했다면, 이 정보들이 구글 애널리틱스나 구글 애드워즈 등을 통해 광고주 및 퍼블리셔에게 익명화된 형태로 제공된다.
대부분의 사람들은 자신도 모르게 정보 제공에 동의를 했을 텐데, 이런 식으로 동의를 받아내는 것 또한 교묘한 디자인의 결과다.
전통적인 인간-컴퓨터 인터랙션에서 다루던 인터페이스의 역할은 인간이 어떤 행동을 하고자 할 때 그걸 더 잘할 수 있도록 도와주는 것이었다. 하지만 소셜 미디어는 인간이 어떠한 행동을 하게끔 적극적으로 유도하고 개입한다는 점에서 전통적인 도구와는 사뭇 다르다.
”소셜 딜레마”에 대한 페이스북의 의견
다큐가 출시된 직후 페이스북은 <‘소셜 딜레마’의 잘못된 지점들What ‘The Social Dilemma’ Gets Wrong>이라는 문서를 공개했다.
이 문서에서는 복잡한 사회 문제를 소셜 미디어 플랫폼의 책임으로 돌리고 있으며, 과거에 퇴사한 사람들의 견해만 담고 있어서 페이스북이 최근에 하고 있는 노력들을 반영하지 못한다고 주장한다. 문서에서 다루고 있는 일곱 가지 주제를 비판적으로 요약해봤다.
“첫째, 페이스북은 중독이 아닌 가치 창출을 위해 제품을 만듭니다.” 문서에서는 페이스북이 중독을 유도하기 위한 의도가 없으며 이용자들의 정신 건강 증진을 위해 다양한 노력을 하고 있다는 점을 강조하고 있다. 환영할 일이다. 다만 의도가 어떠한가와 결과가 어떠한가를 분리할 필요도 있다고 생각한다. 모든 디자인에는 설계된 의도에 따른 결과도 존재하지만, 그 설계로 인해 생겨날 수밖에 없는 의도와 무관한 부산물도 동시에 존재하기 때문이다. 예를 들어 전구는 빛을 내기 위해 설계되었으나 의도와 무관하게 열도 발생한다. 열을 줄이려면 열을 줄이기 위한 목적으로 의도적이고 추가적인 노력을 해야 한다. 의도가 없다고만 말할 게 아니라, 문제가 존재한다는 것을 인정하고 이를 해결하기 위해 노력을 하고 있다고 서술했으면 더 좋았을 텐데 아쉽다.
“둘째, 이용자는 제품이 아닙니다. 페이스북은 광고를 통해 수익을 창출하여 이용자들이 서비스를 무료로 이용할 수 있도록 합니다.” 문서에서는 페이스북이 이용자를 파는 게 아니라 광고를 팔고 있으며 이 과정에서 개인 정보를 제공하지 않는다고 말한다. 하지만 다큐에서 나온 ‘이용자가 제품이다’라는 표현이 은유법적 수사일 뿐이라는 점을 고려하면, ‘이용자가 아니라 광고를 판다’는 대응은 허수아비 비판의 오류로 보인다. 그리고 ‘이용자가 동의하지 않는 한, 광고주에게 이용자 개개인을 식별할 수 있는 형태의 정보를 제공하지 않는다’는 표현이 나오는데 두 가지 부연이 필요하다고 생각한다.
- 이 말은 달리 말하면 이용자가 동의만 하면 광고주에게 개인을 식별할 수 있는 형태의 정보를 제공한다는 뜻이다. 이용자가 동의를 하지 않으면 될 문제라고 생각할 수 있지만, 디자인을 통해 이용자의 동의를 쉽게 유도할 수 있는 수많은 방법들이 있다는 점도 함께 생각해볼 필요가 있다.
- 개인을 식별할 수 있는 형태의 정보(PII; personally identifiable information)인지 여부는 이분법적으로 나뉠 수 없다. ‘개인을 식별할 수 없는 정보’들을 조합하여 개인을 식별해내는 기술들이 계속 발전하고 있기 때문이다.
“셋째, 페이스북의 알고리즘은 ‘미치지’ 않았습니다.” 문서에 의하면 다른 모든 서비스들도 유사한 알고리즘을 써서 이용자들에게 유용한 기능을 제공하고 있으며, 페이스북도 다르지 않다고 말한다. 예를 들면 많은 사람들이 “소셜 딜레마”라는 다큐를 본 이유도 아마 넷플릭스의 알고리즘이 그 다큐를 추천해주었기 때문일 것이다. 타당한 주장이라고 생각한다. 다만 나는 이 모든 알고리즘들에 의도치 않은 문제가 없는지 각 기업들이 더 진지하게 고민할 필요가 있다고 생각한다. 예를 들어 상당수의 뉴스 개인화 알고리즘은 독자가 클릭할만한 뉴스를 추천해준다. 설계 의도는 클릭률 증대, 체류시간 증대, 광고수익 증대에 있겠으나, 이 의도의 부산물로 이용자의 확증 편향이 강화되기 쉽다. 앞서 말한 바와 마찬가지로, 의도가 무엇인지 뿐만 아니라 어떤 결과들이 나타나는지, 특히 설계에 따른 부산물이 무엇인지를 중요하게 살펴볼 필요가 있다고 생각한다.
“넷째, 페이스북은 이용자의 개인 정보 보호를 위해 노력하고 있습니다.” 문서에서는 연방거래위원회 조사 결과에 따라 페이스북이 이용자의 개인 정보 보호를 위한 다양한 장치를 마련했음을 강조하고 있다. 문서에서는 구체적으로 언급하고 있지 않지만, 여기에서 말하는 ‘조사’란 페이스북-케임브리지 애널리티카 개인정보 대량 유출 사태에 대한 연방거래위원회 조사를 말한다. 이에 따라 페이스북은 약 50억 달러(한화 약 5조5천억원)의 벌금을 지불했다. 케임브리지 애널리티카는 현재는 허용되지 않지만 당시에는 허용되던 방식으로 페이스북을 통해 이용자의 개인정보를 대량으로 수집하였고 이를 2016년 미국 대선 당시 트럼프 당선을 돕기 위해 활용하는 등 다양한 정치적 목적으로 이용했다. 이 주제에 관심이 있다면 또 다른 넷플릭스 다큐 <거대한 해킹The Great Hack>을 보시길 권한다.
“다섯째, 페이스북은 양극화 문제를 해소하기 위해 노력하고 있습니다.” 문서는 페이스북이 존재하기 전에도 이미 양극화 문제는 존재하고 있었으며, 페이스북은 이 문제를 해소하기 위해 다양한 노력을 하고 있다고 말한다. 다양한 노력을 하는 점은 물론 칭찬할 일이다. 다만 ‘이미 존재하고 있었다’는 주장은 적절치 않다고 생각한다. 소셜 미디어에 대해 사람들이 우려하는 바는 ‘없던 문제를 만들었다’는 점이 아니라, ‘이미 있던 문제를 더 극대화시켰다’는 점이기 때문이다.
“여섯째, 페이스북은 공정한 선거를 위해 노력하고 있습니다.” 2016년에 실수를 했음을 인정하며 그 이후 다양한 개선이 있었다고 설명하고 있다. ‘실수’란 앞서 언급한 페이스북-케임브리지 애널리티카 사태를 말한다. 문제를 시인하는 표현이 처음으로 나왔다. 다른 항목들에서도 유사한 방식으로 서술했으면 더 좋았을 텐데 아쉽다.
“일곱째, 페이스북은 가짜 정보 및 가짜 뉴스에 대응하기 위해 전지구적 팩트체크 네트워크를 구축하였습니다.” 페이스북은 가짜 정보나 증오 표현을 방치하지 않고 있으며 알고리즘 개발, 팩트체크 네트워크 구축 등 다양한 노력을 기울이고 있다고 주장한다. 시스템이 완전할 수는 없기 때문에 놓치는 점들이 있음도 인정하고 있다. 이런 노력들은 정말 중요하다고 생각하며 깊게 환영한다. 다만 스탠퍼드 인터넷 관측소Stanford Internet Observatory의 르네 디레스트라Renée DiResta가 지적한 바와 같이 이러한 노력들이 영어 및 몇몇 서구권 언어에 지나치게 집중된 점이 아쉽다. 데이터와 알고리즘에 의해 야기되는 불평등의 확대 재생산 문제는 소셜 미디어뿐 아니라 IT 전반에 걸친 문제일 텐데, 다른 글에서 다루어보면 좋을 주제라고 생각한다.
문제를 축소하거나 인정하지 않거나 원인을 다른 곳으로 전가하는 식의 표현들이 마음에 걸리지만, 그럼에도 불구하고 제기된 문제를 개선하기 위해 다양한 노력이 진행되고 있는 점은 정말 환영할 일이다. 응원하는 마음으로 지켜볼 생각이다.
경각심이 음모론으로 흐르지 않으려면
다큐에서는 소셜 미디어를 운영하는 회사들이 악한 의도를 가지고 있는 것처럼 종종 묘사되는데, 이런 점들은 좀 조심해서 수용할 필요가 있다고 생각한다. 소셜 미디어에 대한 경각심이 음모론으로 흐르지 않으려면 이런 식으로 생각을 해보면 좋겠다.
- 나쁜 결과가 항상 나쁜 의도에서 비롯되는 것은 아니다. 소셜 미디어를 운영하는 회사들을 ‘악의 축’ 정도로 치부해서는 아무런 긍정적인 논의도 이루어질 수 없다고 생각한다.
- 밖에서 보기에 개선의 속도가 더디다고 해서 내부에서 노력하는 사람들이 없는 것은 아니다. 잘못된 방향에 대한 비판과 함께 좋은 변화에 대한 응원과 지지도 병행되면 좋겠다. 예를 들어 페이스북에서는 가짜 뉴스를 막기 위한 기술, 혐오 발언을 막기 위한 기술에 지속적으로 투자를 하고 있다. 구글은 프라이버시 침해를 최소화하면서도 맞춤 광고를 할 수 있는 기술을 실험 중이기도 하다.
- 세상 거의 모든 일에는 다면성이 있다. 예를 들어 ‘개인화’는 어떤 면에서는 사생활 침해/스팸/주의력 착취이지만, 다른 면에서는 유용하고 편리한 기능이자 정보일 수 있다. ‘X를 하지 말자’는 생각보다는 ‘X를 하려면 어떤 면을 지금보다 더 주의해야 한다’는 식의 생각이 더 긍정적이다.
맺음말. 인간을 위한 기술
다큐 말미에는 스티브 잡스Steve Jobs가 1980년에 했던 인터뷰의 한 장면이 인용된다. 이 인터뷰에서 잡스는 이런 말을 한다.
12살 즈음 읽었던 잡지 글이 떠오릅니다. 아마 사이언티픽 아메리칸이었던 것 같아요. 그 글에서는 지구에 사는 다양한 종들의 보행 효율성을 측정했습니다. 한 지점에서 다른 지점까지 이동할 때 소모하는 칼로리를 기준으로요. 콘도르가 1위였고 인간은 한참 아래에 있었습니다. 그런데 누군가가 창의력을 발휘해서 ‘자전거를 타고 이동하는 인간’의 보행 효율성도 계산을 했더군요. 자전거를 탄 인간은 콘도르를 압도적으로 이겼습니다. 이 글이 정말 강한 인상을 남겼습니다. 우리 인간은 도구를 만듭니다. 인간은 도구를 만들어서, 타고난 능력을 엄청나게 증폭시킬 수 있습니다. 이런 맥락에서, 저에게 있어서 컴퓨터란 언제나 마음의 자전거였습니다. 타고난 지능을 크게 증폭시킬 수 있는 도구인 거죠. 그리고 우리는 이제 막 시작한 단계에 있습니다.
컴퓨터는 인간에게 심대한 영향을 줄 수 있는 도구다. 그 영향은 심대하게 긍정적일 수도, 심대하게 부정적일 수도 있다. 본인이 UX 디자이너라면, 또는 데이터 분석가라면, 또는 퍼포먼스 마케터라면, 어떤 방향의 영향을 줄 것인지에 적어도 일부는 관여할 수 있는 위치에 있는 것이다.
‘마음의 자전거’ 비유는 체화된 인지(embodied/embedded cognition)라는 연구 전통과 자연스럽게 이어진다. 체화된 인지주의에서는 ‘마음’이란 뇌 안에 갇혀 있는 게 아니라고 말한다. 인간은 떠다니는 뇌가 아니라 특정한 몸을 가진 행위자이며embodied, 인간의 몸은 언제나 특정한 사회/환경 맥락에 놓여 있다embedded/situated.
이 관점에 따르면 디자인을 하는 행위는 사용자의 마음 일부를 설계하는 행위다. 과장하자면, 디자이너가 하는 일은 어쩌면 신경외과 의사가 하는 일과도 유사하다. 다만 훨씬 더 많은 대중에게 상시적인 영향을 미친다는 점에서 차이가 있을 뿐이다.
디자인 윤리를 더 중요하게 고민할 필요가 있다.